Foto: Divulgação
O YouTube anunciou que a partir desta quarta passará a remover vídeos que contenham material considerados racistas, que defendam o nazismo ou que sejam discriminatórios contra minorias e grupos sociais. Conteúdo que negue eventos históricos em que houve violência, como o Holocausto, também serão retirados, disse a plataforma, que pertence ao Google.
Campanha pede que passageiros enviem fotos da situação dos ônibus
O anúncio acontece em meio ao aumento da pressão contra empresas de tecnologia para que elas tomem medidas para evitar a disseminação de discurso de ódio em seus sites. As reclamações aumentaram desde março, quando um atirador transmitiu ao vivo pela internet um ataque contra duas mesquitas na Nova Zelândia que deixou 51 mortos.
Grupos e usuários que praticam esse tipo de discurso de ódio, porém, costumam afirmar que essas medidas violam a liberdade de expressão. É o caso, por exemplo, da organização racista americana Ku Klux Klan e de Alex Jones, dono do site de teoria de conspiração Infowars, que já tiveram seus perfis bloqueados em outras plataformas.
Nos últimos 12 meses, o Facebook e o Twitter já tinham tomados medidas semelhantes e o próprio YouTube tinha alterado sua política para tentar restringir esse tipo de conteúdo, embora até esta quarta relutasse em remover esses vídeos.
Por falta de recurso, Feira do Cooperativismo de 2019 pode ser a última
"Nós revisamos nossa política periodicamente para garantir que traçamos nosso limite no lugar certo. Só em 2018 nós mudamos nossa política mais de 30 vezes. Uma das questões mais complexas e em evolução é como devemos lidar com o discurso de ódio", disse a empresa ao justificar porque até o momento não tinha tomado medidas mais duras contra esse tipo de conteúdo.
Também passa a ser proibida a discriminação contra imigrantes e contra pessoas que foram vítimas de eventos violentos e seus familiares.
O YouTube divulgou uma lista de frases para exemplificar o que será proibido. Ela inclui declarações como "todos os judeus são ladrões", "negros são uma doença", "homossexualidade é só uma forma de doença mental que precisa ser curada" e "gays têm uma agenda para comandar o mundo e se livrar de nós".
Inicialmente, caso um vídeo viole algum desses critérios ele será imediatamente removido, mas o canal não será afetado. Em vez disso, entrará em uma espécie de programa de observação. Caso o canal cometa outras três violações em um período de 90 dias, será apagado -o que significa que todos os seus vídeos serão removidos também, mesmo os que não tenham violado as regras. Dependendo do grau da violação, porém, a eliminação do canal pode ser imediata.
Segundo dados da própria empresa, entre janeiro e março de 2019 (o último trimestre com dados disponíveis), foram retirados mais de 2,8 milhões de canais do YouTube. Mas a ampla maioria (97,5%) foi apagado por violar as regras de nudez ou de pedofilia ou por realizar propaganda sem autorização (spam). A empresa não especifica quantos exatamente foram removidos por divulgar discurso de ódio.
Campanha do agasalho já arrecadou mais de 179 mil peças de roupas no Estado
Além da remoção de conteúdo, o YouTube também anunciou que vai ampliar para outros países sua iniciativa para diminuir a disseminação de fake news e do que ele classifica como conteúdo limítrofe -isso é, que está próximo de violar as regras, mas não chega a fazê-lo.
São enquadrados nesses casos, por exemplo, vídeos que afirmam que a terra é plana ou que negam a eficácia de vacinas. Estes vídeos não são removidos, mas desde o início de 2019, o YouTube passou a limitar sua disseminação nos Estados Unidos, impedindo que eles apareçam nas listas de recomendações para os usuários.
Além disso, quem assiste a esse tipo de vídeo logo depois recebe a recomendação para ver canais que a plataforma classifica como confiáveis, como o de empresas jornalísticas. Segundo o YouTube, essa iniciativa fez diminuir em 50% a disseminação desse tipo de conteúdo nos EUA e agora ela será ampliada para outros países, mas não foram divulgados quais.